
美國賓夕法尼亞州政府日前對 AI 聊天機器人平台 Character.ai 提起訴訟,指控其部分 AI 角色涉及非法行醫,此舉突顯在美國聯邦監管機構尚未明確立場之際,各州正自行摸索醫療 AI 的監管挑戰。
美國賓夕法尼亞州(Pennsylvania)國務院及 State Board of Medicine 已於 5 月 1 日向神經語言模型聊天機器人 Character.ai 提起訴訟,指控其提供的部分 AI 角色聲稱是醫療專業人員,從事非法行醫。此舉突顯在美國食品藥品監督管理局(FDA)尚未明確執法立場之際,各州正自行摸索醫療人工智慧(AI)的監管挑戰。
這起訴訟源於賓夕法尼亞州國務院旗下 AI Task Force 對 AI 系統及無照行醫行為的調查。一名政府調查員與 Character.ai 上的聊天機器人角色互動時,該角色聲稱擁有賓夕法尼亞州執業醫師執照,並提供了一個無效的執照號碼。由於美國各州皆對醫療行為和醫師執照有嚴格規定,且公司行醫的限制也可能涉及其中,此案可能不會是 State Board of Medicine 對 AI 系統採取的最後一次行動。
除了賓夕法尼亞州的訴訟,美國其他州也已通過針對 AI 的專屬法規,旨在處理健康聊天機器人帶來的問題。例如,猶他州(Utah)早於今年稍早批准了一項試驗計畫,與一家醫療 AI 公司合作,允許 AI 在州內自主開立常規處方箋。據該州州長辦公室表示,這項計畫是首個由州長宣布的同類計畫。這些法規涵蓋了禁止 AI 系統使用醫療專業人員頭銜、限制心理健康聊天機器人的使用,以及建立聊天機器人資訊披露要求等。
儘管醫療聊天機器人工具若旨在診斷、治療或預防疾病,理論上應受美國食品藥品監督管理局監管,但目前該機構尚未就此類工具發布明確指導方針,也未見具體執法行動。儘管某些臨床決策支援(clinical decision support, CDS)軟體被豁免於法規中的「裝置」定義,但此豁免僅適用於醫療專業人員使用的軟體功能,而非患者或一般大眾。這意味著,若聊天機器人實際從事州法律定義的行醫行為,它們可能屬於需要美國食品藥品監督管理局批准的軟體裝置。
目前美國在 AI 監管方面,正浮現一個快速變化且零碎的新舊法規拼湊局面,這對開發者、服務提供者和使用者都帶來了監管和法律上的不確定性。此現象也提醒全球各國,在人工智慧技術快速發展的同時,如何建立健全、清晰的監管框架,是各國政府共同面臨的挑戰。
